Deployment এবং Scaling (ডিপ্লয়মেন্ট এবং স্কেলিং)

Computer Programming - নোড জেএস (Node.js)
205

Deployment এবং Scaling দুটি গুরুত্বপূর্ণ প্রক্রিয়া যা অ্যাপ্লিকেশন তৈরি করার পর সঠিকভাবে সেটি পরিবেশন এবং কার্যকরীভাবে সম্প্রসারণে সহায়তা করে। Deployment হল অ্যাপ্লিকেশনটিকে প্রোডাকশন পরিবেশে চালু করা, আর Scaling হল অ্যাপ্লিকেশন বা সিস্টেমের সক্ষমতা বাড়ানোর প্রক্রিয়া যাতে এটি অনেক বেশি ইউজার এবং ডেটা পরিচালনা করতে পারে।

এখানে, Node.js অ্যাপ্লিকেশনের Deployment এবং Scaling এর সাথে সম্পর্কিত কিছু গুরুত্বপূর্ণ কৌশল এবং টুলস নিয়ে আলোচনা করা হবে।


১. Deployment (ডিপ্লয়মেন্ট)

Deployment হল প্রক্রিয়া যার মাধ্যমে একটি অ্যাপ্লিকেশন বা ওয়েব সার্ভিসকে প্রোডাকশন পরিবেশে চালু করা হয়। Node.js অ্যাপ্লিকেশন ডিপ্লয় করতে বিভিন্ন পদ্ধতি এবং প্ল্যাটফর্ম রয়েছে। কিছু জনপ্রিয় প্ল্যাটফর্ম হলো Heroku, AWS, Google Cloud, DigitalOcean, Docker ইত্যাদি।

১.১ Heroku এ Node.js অ্যাপ্লিকেশন ডিপ্লয় করা

Heroku একটি জনপ্রিয় ক্লাউড প্ল্যাটফর্ম যা সহজে Node.js অ্যাপ্লিকেশন ডিপ্লয় করার সুবিধা দেয়। Heroku একটি Platform as a Service (PaaS) যা সার্ভার, স্টোরেজ, এবং অন্যান্য রিসোর্সের সেটআপ এবং পরিচালনা সহজ করে দেয়।

স্টেপ ১: Heroku CLI ইনস্টলেশন

Heroku CLI ইনস্টল করতে Heroku CLI ডকুমেন্টেশন অনুসরণ করুন।

স্টেপ ২: অ্যাপ্লিকেশন তৈরি এবং Git রিপোজিটরি তৈরি করা
  1. প্রথমে আপনার Node.js অ্যাপ্লিকেশনটি একটি Git রিপোজিটরিতে রাখতে হবে।
git init
git add .
git commit -m "Initial commit"
স্টেপ ৩: Heroku অ্যাপ্লিকেশন তৈরি এবং ডিপ্লয় করা
  1. Heroku এ লগইন করুন:
heroku login
  1. একটি নতুন অ্যাপ তৈরি করুন:
heroku create your-app-name
  1. আপনার অ্যাপটি Heroku তে পুশ করুন:
git push heroku master

এখন, আপনার Node.js অ্যাপ্লিকেশন Heroku তে ডিপ্লয় করা হবে এবং আপনি https://your-app-name.herokuapp.com এ গিয়ে অ্যাপটি দেখতে পারবেন।


১.২ AWS EC2 তে Node.js অ্যাপ্লিকেশন ডিপ্লয় করা

AWS EC2 (Amazon Elastic Compute Cloud) একটি ক্লাউড সার্ভিস যা ভার্চুয়াল সার্ভার (ইন্সট্যান্স) প্রদান করে। এখানে একটি সাধারণ স্টেপবাইস্টেপ নির্দেশিকা দেওয়া হলো:

স্টেপ ১: EC2 ইন্সট্যান্স চালু করা
  1. AWS কনসোল এ লগইন করুন এবং একটি EC2 ইন্সট্যান্স তৈরি করুন।
  2. আপনার ইন্সট্যান্সে SSH এর মাধ্যমে কানেক্ট করুন।
স্টেপ ২: Node.js এবং npm ইনস্টল করা
sudo apt update
sudo apt install nodejs
sudo apt install npm
স্টেপ ৩: অ্যাপ্লিকেশন ডিপ্লয় করা
  1. আপনার অ্যাপ্লিকেশনটি EC2 সার্ভারে কপি করুন (যদি এটি Git এ থাকে, তাহলে Git ক্লোন করুন)।
git clone https://github.com/your-repo.git
cd your-repo
  1. অ্যাপ্লিকেশন চালু করুন:
npm install
npm start
স্টেপ ৪: Security Group কনফিগার করা

আপনার EC2 ইন্সট্যান্সের Security Group এ 80 এবং 443 পোর্ট খুলে দিন যাতে ওয়েব সার্ভিস অ্যাক্সেস করা যায়।


২. Scaling (স্কেলিং)

Scaling হল সিস্টেমের সক্ষমতা বৃদ্ধি করার প্রক্রিয়া, যাতে এটি আরও ইউজার, ডেটা বা ট্র্যাফিক হ্যান্ডেল করতে পারে। Node.js অ্যাপ্লিকেশন স্কেল করার জন্য কিছু জনপ্রিয় কৌশল হলো:

২.১ Horizontal Scaling (হরিজেন্টাল স্কেলিং)

Horizontal Scaling মানে অ্যাপ্লিকেশনটির কপি তৈরি করে তা বিভিন্ন সার্ভারে রান করানো। এতে, সিস্টেমের ট্র্যাফিক বা লোড ভাগ হয়ে যায়।

Load Balancer ব্যবহার করা:

একাধিক সার্ভারে অ্যাপ্লিকেশন রান করার জন্য একটি Load Balancer ব্যবহার করতে হয়, যা সার্ভারের মধ্যে ট্র্যাফিক ভাগ করে।

  • AWS Elastic Load Balancer: AWS এর মধ্যে এটি ব্যবহৃত হয়।
  • NGINX বা HAProxy: নেটওয়ার্ক লোড ব্যালেন্সিং এর জন্য এই সার্ভিসগুলি ব্যবহৃত হয়।
উদাহরণ: NGINX লোড ব্যালেন্সিং কনফিগারেশন
http {
  upstream app_servers {
    server app1.example.com;
    server app2.example.com;
  }

  server {
    location / {
      proxy_pass http://app_servers;
    }
  }
}

এখানে, NGINX দুটি অ্যাপ সার্ভারের মধ্যে ট্র্যাফিক ভাগ করবে।

২.২ Vertical Scaling (ভেরটিকাল স্কেলিং)

Vertical Scaling বা Scaling Up হল একক সার্ভারের ক্ষমতা বৃদ্ধি করা। এর মধ্যে CPU, RAM, ডিস্ক স্পেস ইত্যাদি বাড়ানো হয়। এটি সাধারণত ছোট অ্যাপ্লিকেশনের জন্য উপযুক্ত, যেখানে সিস্টেমের হার্ডওয়্যার আপগ্রেড করা সম্ভব।


৩. Containerization এবং Orchestration

Docker ব্যবহার করে Node.js অ্যাপ্লিকেশন কন্টেইনারাইজ করা যায়, যা সহজে একাধিক পরিবেশে ডিপ্লয় এবং স্কেল করতে সহায়তা করে। Kubernetes বা Docker Swarm ব্যবহার করে কন্টেইনার ম্যানেজমেন্ট এবং স্কেলিং করা যায়।

৩.১ Dockerize a Node.js Application

  1. Dockerfile তৈরি করুন:
# Step 1: Set base image
FROM node:14

# Step 2: Set working directory
WORKDIR /usr/src/app

# Step 3: Copy package files
COPY package*.json ./

# Step 4: Install dependencies
RUN npm install

# Step 5: Copy all files
COPY . .

# Step 6: Expose port
EXPOSE 8080

# Step 7: Run the app
CMD ["npm", "start"]
  1. Docker Image Build এবং Run:
docker build -t node-app .
docker run -p 8080:8080 node-app

এখানে, Docker ব্যবহার করে Node.js অ্যাপ্লিকেশন কন্টেইনার তৈরি এবং রান করা হয়েছে।

৩.২ Kubernetes Orchestration

Kubernetes কন্টেইনার পরিচালনার জন্য একটি শক্তিশালী অর্কেস্ট্রেশন টুল। Kubernetes ব্যবহার করে একাধিক Node.js কন্টেইনার সার্ভিস স্কেল করা যায় এবং স্বয়ংক্রিয়ভাবে ম্যানেজ করা হয়।


সারাংশ

  • Deployment হল অ্যাপ্লিকেশনকে প্রোডাকশন পরিবেশে চালু করার প্রক্রিয়া এবং এটি বিভিন্ন প্ল্যাটফর্ম (Heroku, AWS, Docker) ব্যবহার করে করা যেতে পারে।
  • Scaling হল সিস্টেমের সক্ষমতা বাড়ানোর প্রক্রিয়া এবং এটি Horizontal Scaling (একাধিক সার্ভার ব্যবহার করে) বা Vertical Scaling (একক সার্ভারের ক্ষমতা বৃদ্ধি) এর মাধ্যমে করা যায়।
  • Docker এবং Kubernetes ব্যবহারের মাধ্যমে Node.js অ্যাপ্লিকেশন কন্টেইনারাইজ করা যায় এবং স্বয়ংক্রিয়ভাবে স্কেল এবং ম্যানেজ করা যায়।
  • Load Balancing ব্যবহার করে একাধিক সার্ভারে ট্র্যাফিক ভাগ করা হয়, যা অ্যাপ্লিকেশনকে স্কেলেবল এবং রেস্পন্সিভ করে তোলে।

এই টিপস এবং টুলসগুলি ব্যবহার করে আপনি আপনার Node.js অ্যাপ্লিকেশন ডিপ্লয় এবং স্কেল করতে পারবেন এবং এটি আরও কার্যকরী, দ্রুত এবং স্থিতিশীল হবে।

Content added By

Node.js Application Deploy করার পদ্ধতি (Heroku, AWS)

253

Node.js অ্যাপ্লিকেশন ডিপ্লয় করার জন্য বেশ কিছু জনপ্রিয় প্ল্যাটফর্ম রয়েছে, যার মধ্যে Heroku এবং AWS অন্যতম। এখানে আমরা Heroku এবং AWS (EC2) ব্যবহার করে Node.js অ্যাপ্লিকেশন ডিপ্লয় করার দুটি পদ্ধতি বিস্তারিতভাবে আলোচনা করবো।


১. Heroku তে Node.js অ্যাপ্লিকেশন ডিপ্লয় করা

Heroku একটি ক্লাউড প্ল্যাটফর্ম যা সহজেই অ্যাপ্লিকেশন ডিপ্লয়, ম্যানেজ এবং স্কেল করার সুবিধা দেয়। এটি Platform-as-a-Service (PaaS) ভিত্তিক এবং Node.js সহ বেশ কিছু প্রোগ্রামিং ভাষা সমর্থন করে।

পদক্ষেপ ১: Heroku CLI ইনস্টল করা

Heroku CLI (Command Line Interface) ব্যবহার করে আপনি আপনার অ্যাপ্লিকেশন ডিপ্লয় করতে পারেন। প্রথমে, Heroku CLI ডাউনলোড এবং ইনস্টল করুন।

পদক্ষেপ ২: Heroku অ্যাকাউন্ট তৈরি করা

  1. Heroku অ্যাকাউন্টে সাইন আপ করুন, যদি আপনার অ্যাকাউন্ট না থাকে।
  2. লগ ইন করার জন্য CLI তে নিচের কমান্ডটি ব্যবহার করুন:

    heroku login

পদক্ষেপ ৩: Node.js অ্যাপ্লিকেশন প্রস্তুত করা

  1. আপনার Node.js অ্যাপ্লিকেশন ফোল্ডারে যান এবং নিশ্চিত করুন যে package.json ফাইল রয়েছে এবং এটি সঠিকভাবে কনফিগার করা।
  2. একটি Procfile ফাইল তৈরি করুন (যা Heroku কে জানায় যে অ্যাপ্লিকেশনটি কীভাবে চালাতে হবে):

    web: node app.js

পদক্ষেপ ৪: Git রেপোজিটরি তৈরি করা

Heroku Git ব্যবহার করে অ্যাপ্লিকেশন ডিপ্লয় করে। তাই আপনাকে প্রথমে আপনার অ্যাপ্লিকেশন গিট রেপোজিটরি হিসাবে ইনিশিয়ালাইজ করতে হবে।

  1. গিট ইনিশিয়ালাইজ করা:

    git init
  2. ফাইল গুলি যোগ করা:

    git add .
  3. প্রথম কমিট করা:

    git commit -m "Initial commit"

পদক্ষেপ ৫: Heroku অ্যাপ তৈরি করা

Heroku তে নতুন অ্যাপ তৈরি করতে:

heroku create my-node-app

এটি আপনার অ্যাপ্লিকেশনের জন্য একটি নতুন Heroku অ্যাপ তৈরি করবে এবং একটি নতুন গিট রিমোট heroku যুক্ত করবে।

পদক্ষেপ ৬: অ্যাপ্লিকেশন ডিপ্লয় করা

ডিপ্লয় করতে, গিট রেপোজিটরি পুশ করুন:

git push heroku master

পদক্ষেপ ৭: অ্যাপ্লিকেশন দেখতে

ডিপ্লয়ের পর, আপনার অ্যাপ্লিকেশনকে দেখতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:

heroku open

এটি আপনার ডিফল্ট ব্রাউজারে অ্যাপ্লিকেশন খুলবে।


২. AWS EC2 তে Node.js অ্যাপ্লিকেশন ডিপ্লয় করা

AWS EC2 (Elastic Compute Cloud) হল Amazon এর একটি ক্লাউড সেবা, যা আপনাকে ভার্চুয়াল মেশিন (ভিএম) প্রভৃতি ভার্চুয়াল সার্ভিস প্রদান করে। Node.js অ্যাপ্লিকেশন ডিপ্লয় করার জন্য AWS EC2 একটি শক্তিশালী প্ল্যাটফর্ম।

পদক্ষেপ ১: AWS অ্যাকাউন্ট তৈরি করা

প্রথমে AWS অ্যাকাউন্ট তৈরি করুন। এরপর EC2 সার্ভিসে যান।

পদক্ষেপ ২: EC2 ইন্সট্যান্স তৈরি করা

  1. EC2 ড্যাশবোর্ড থেকে Launch Instance বাটন টিপুন।
  2. একটি ইন্সট্যান্স নির্বাচন করুন (যেমন Amazon Linux 2 বা Ubuntu)।
  3. আপনার প্রয়োজনীয় কনফিগারেশন নির্বাচন করুন এবং ইন্সট্যান্সটি চালু করুন।
  4. একটি নতুন Key Pair তৈরি করুন এবং ডাউনলোড করুন, যাতে আপনি SSH এর মাধ্যমে ইন্সট্যান্সে লগ ইন করতে পারেন।

পদক্ষেপ ৩: EC2 ইন্সট্যান্সে SSH মাধ্যমে কানেক্ট করা

আপনার ইন্সট্যান্সে SSH মাধ্যমে কানেক্ট হতে:

ssh -i /path/to/your-key.pem ec2-user@your-ec2-public-ip

এখানে /path/to/your-key.pem হল আপনার SSH কী ফাইলের পথ এবং your-ec2-public-ip হল EC2 ইন্সট্যান্সের পাবলিক আইপি অ্যাড্রেস।

পদক্ষেপ ৪: Node.js এবং Nginx ইনস্টল করা

EC2 ইনস্ট্যান্সে Node.js এবং Nginx ইন্সটল করার জন্য নিম্নলিখিত কমান্ডগুলো চালান:

# Node.js ইনস্টল করা
curl -sL https://rpm.nodesource.com/setup_14.x | sudo bash -
sudo yum install -y nodejs

# Nginx ইনস্টল করা
sudo amazon-linux-extras install nginx1.12
sudo service nginx start

পদক্ষেপ ৫: আপনার Node.js অ্যাপ্লিকেশন কপি করা

আপনার Node.js অ্যাপ্লিকেশনটি EC2 ইন্সট্যান্সে আপলোড করুন। আপনি scp (secure copy) ব্যবহার করতে পারেন:

scp -i /path/to/your-key.pem /path/to/your-app/* ec2-user@your-ec2-public-ip:/home/ec2-user/

পদক্ষেপ ৬: অ্যাপ্লিকেশন রান করা

EC2 তে অ্যাপ্লিকেশন রান করতে:

cd /home/ec2-user/your-app
npm install
node app.js

পদক্ষেপ ৭: Nginx কনফিগারেশন

Nginx এর মাধ্যমে আপনার অ্যাপ্লিকেশনকে রিভার্স প্রোক্সি করতে হবে যাতে এটি HTTP রিকোয়েস্ট গ্রহণ করতে পারে। /etc/nginx/nginx.conf ফাইলটি এডিট করুন এবং নিচের কনফিগারেশনটি যোগ করুন:

server {
    listen 80;
    server_name your-ec2-public-ip;

    location / {
        proxy_pass http://localhost:3000;  # Node.js অ্যাপ্লিকেশন চলমান যেখানে
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection 'upgrade';
        proxy_set_header Host $host;
        proxy_cache_bypass $http_upgrade;
    }
}

নেক্সট, Nginx সার্ভিসটি রিস্টার্ট করুন:

sudo service nginx restart

পদক্ষেপ ৮: অ্যাপ্লিকেশন অ্যাক্সেস করা

এখন আপনি আপনার EC2 ইন্সট্যান্সের পাবলিক আইপি অ্যাড্রেস ব্যবহার করে ওয়েব ব্রাউজারে অ্যাপ্লিকেশন অ্যাক্সেস করতে পারবেন:

http://your-ec2-public-ip

সারাংশ

Heroku এবং AWS EC2 দুটি শক্তিশালী প্ল্যাটফর্ম যা Node.js অ্যাপ্লিকেশন ডিপ্লয় করতে সহায়তা করে। Heroku একটি সহজ, PaaS (Platform-as-a-Service) সলিউশন প্রদান করে, যা ডিপ্লয়মেন্ট এবং স্কেলিংকে সহজ করে তোলে, যেখানে AWS EC2 একটি IaaS (Infrastructure-as-a-Service) সলিউশন, যা আপনাকে ক্লাউডে ভিএম চালানোর পূর্ণ নিয়ন্ত্রণ দেয়। Heroku তে ডিপ্লয় করা সহজ, তবে AWS EC2 তে আরও কাস্টমাইজেশন এবং স্কেলিং সুবিধা পাওয়া যায়।

Content added By

PM2 ব্যবহার করে Application Management

273

PM2 একটি পপুলার এবং শক্তিশালী process manager যা Node.js অ্যাপ্লিকেশন পরিচালনা, মনিটরিং এবং ডেপ্লয়মেন্টের জন্য ব্যবহৃত হয়। PM2 আপনাকে অ্যাপ্লিকেশনটি স্কেল করতে, অ্যাপ্লিকেশন ক্র্যাশ হলে তা স্বয়ংক্রিয়ভাবে রিস্টার্ট করতে এবং লগ ফাইল ম্যানেজমেন্ট করতে সহায়তা করে।

এখানে PM2 এর সাহায্যে Node.js অ্যাপ্লিকেশন ব্যবস্থাপনা (application management) করার পদ্ধতি আলোচনা করা হলো।


১. PM2 ইনস্টলেশন

প্রথমে PM2 ইনস্টল করতে হবে। এটি গ্লোবালি ইনস্টল করা যায়, যাতে আপনি যেকোনো ফোল্ডার বা প্রজেক্টে কমান্ড ব্যবহার করতে পারেন।

npm install pm2@latest -g

এটি PM2 এর সর্বশেষ সংস্করণ ইনস্টল করবে।


২. PM2 দিয়ে Node.js অ্যাপ্লিকেশন চালানো

PM2 ব্যবহার করে আপনার Node.js অ্যাপ্লিকেশন খুব সহজেই চালানো যায়। ধরুন আপনার অ্যাপ্লিকেশনটির ফাইলের নাম **app.js**।

অ্যাপ্লিকেশন চালানোর জন্য:

pm2 start app.js

এটি app.js ফাইলটি চালু করবে এবং PM2 এর মাধ্যমে তাকে মনিটর করবে। এখন অ্যাপ্লিকেশনটি ব্যাকগ্রাউন্ডে চলবে এবং আপনি এর প্রোগ্রাম বা সার্ভার কনসোলটি বন্ধ করলে এটি থেমে যাবে না।

অ্যাপ্লিকেশন শুরু করার পর:

pm2 list

এটি আপনার চলমান সব অ্যাপ্লিকেশন দেখাবে, তাদের স্ট্যাটাস, পিডি, এবং অন্যান্য তথ্যসহ।


৩. PM2 দিয়ে অ্যাপ্লিকেশন রিস্টার্ট, স্টপ এবং রিলোড করা

PM2 দিয়ে আপনি অ্যাপ্লিকেশন রিস্টার্ট, স্টপ এবং রিলোড করতে পারেন সহজেই:

অ্যাপ্লিকেশন রিস্টার্ট:

pm2 restart app.js

এটি অ্যাপ্লিকেশনটি রিস্টার্ট করবে। এটি মূলত কোনো কোড পরিবর্তনের পর অ্যাপ্লিকেশনটি রিলোড করার জন্য ব্যবহৃত হয়।

অ্যাপ্লিকেশন স্টপ:

pm2 stop app.js

এটি চলমান অ্যাপ্লিকেশন বন্ধ করবে।

অ্যাপ্লিকেশন রিলোড:

pm2 reload app.js

এটি অ্যাপ্লিকেশনটি রিলোড করবে, তবে কোনো ব্যাঘাত সৃষ্টি না হয়ে চলমান অ্যাপ্লিকেশনটি পুনরায় চালু হবে।


৪. PM2 দিয়ে লগ ম্যানেজমেন্ট

PM2 লগ ম্যানেজমেন্টের জন্য একটি শক্তিশালী টুলস। PM2 আপনি লগগুলোকে মনিটর এবং বিশ্লেষণ করতে সক্ষম।

লগ দেখার জন্য:

pm2 logs

এটি আপনার সব অ্যাপ্লিকেশনের লগ দেখাবে।

নির্দিষ্ট অ্যাপ্লিকেশনের লগ দেখতে:

pm2 logs app.js

এটি শুধুমাত্র app.js এর লগ দেখাবে।

লগ ফাইল পরিষ্কার করা:

pm2 flush

এটি PM2 দ্বারা সংগ্রহ করা সমস্ত লগ ফাইল পরিষ্কার করে দিবে।


৫. PM2 দিয়ে অ্যাপ্লিকেশন স্কেলিং

PM2 এর সাহায্যে আপনি একাধিক কোরে আপনার Node.js অ্যাপ্লিকেশন স্কেল করতে পারেন। এতে প্রতিটি কোরে একটি নতুন ইন্সট্যান্স চলবে এবং অ্যাপ্লিকেশনটি আরও কার্যকরীভাবে কাজ করবে।

অ্যাপ্লিকেশন স্কেলিং:

pm2 start app.js -i max

এটি অ্যাপ্লিকেশনটিকে আপনার CPU কোরের সংখ্যা অনুযায়ী স্কেল করবে। -i max অর্থ হচ্ছে সর্বাধিক কোর সংখ্যা ব্যবহার করা।

নির্দিষ্ট সংখ্যক ইন্সট্যান্স চালানো:

pm2 start app.js -i 4

এটি অ্যাপ্লিকেশনটির ৪টি ইন্সট্যান্স চালাবে।


৬. PM2 দিয়ে অ্যাপ্লিকেশন মনিটরিং

PM2 আপনাকে আপনার অ্যাপ্লিকেশনের পারফরম্যান্স মনিটর করতে সহায়তা করে। আপনি CPU এবং মেমরি ব্যবহার সহ অন্যান্য গুরুত্বপূর্ণ তথ্য দেখতে পারেন।

অ্যাপ্লিকেশন মনিটরিং:

pm2 monit

এটি একটি রিয়েল-টাইম মনিটরিং টুল খুলবে, যেখানে আপনি আপনার অ্যাপ্লিকেশনের স্ট্যাটাস, CPU ব্যবহার, মেমরি ব্যবহার এবং আরও অনেক কিছু দেখতে পারবেন।


৭. PM2 দিয়ে অ্যাপ্লিকেশন স্বয়ংক্রিয়ভাবে চালানো

PM2 আপনাকে অ্যাপ্লিকেশন স্বয়ংক্রিয়ভাবে সার্ভারে চালানোর ব্যবস্থা প্রদান করে। বিশেষত, সার্ভার রিস্টার্ট হলে অথবা সার্ভারের রিবুট হওয়ার পরও অ্যাপ্লিকেশনটি চালু থাকবে।

অ্যাপ্লিকেশনকে রিবুটের পর চালু রাখা:

pm2 startup

এটি আপনার সিস্টেমের জন্য উপযুক্ত স্টার্টআপ স্ক্রিপ্ট তৈরি করবে। এই স্ক্রিপ্টটি আপনার সার্ভারের রিবুট হওয়ার পর PM2 এর মাধ্যমে অ্যাপ্লিকেশনটি পুনরায় চালু করবে।

স্টার্টআপ স্ক্রিপ্ট সংরক্ষণ:

pm2 save

এটি আপনার চলমান অ্যাপ্লিকেশন কনফিগারেশন সংরক্ষণ করবে, যাতে সিস্টেম রিবুট হলে সমস্ত অ্যাপ্লিকেশন পুনরায় চালু হয়।


৮. PM2 Configuration File (ecosystem.config.js)

PM2 একটি কনফিগারেশন ফাইল (ecosystem.config.js) সমর্থন করে, যা দিয়ে আপনি একাধিক অ্যাপ্লিকেশন এবং পরিবেশ কনফিগারেশন সেট করতে পারেন।

উদাহরণ: ecosystem.config.js

module.exports = {
  apps : [{
    name: 'my-app',
    script: './app.js',
    instances: 'max', // CPU কোর অনুযায়ী স্কেলিং
    exec_mode: 'cluster', // ক্লাস্টার মোডে চলবে
    env: {
      NODE_ENV: 'development'
    },
    env_production: {
      NODE_ENV: 'production'
    }
  }]
};

এটি একাধিক অ্যাপ্লিকেশন এবং কনফিগারেশন নির্ধারণ করতে সহায়তা করবে।

PM2 কনফিগারেশন ফাইল চালানো:

pm2 start ecosystem.config.js

সারাংশ

  • PM2 হল একটি শক্তিশালী প্রক্রিয়া ম্যানেজার যা Node.js অ্যাপ্লিকেশন পরিচালনা করতে ব্যবহৃত হয়।
  • PM2 দিয়ে আপনি আপনার অ্যাপ্লিকেশনকে স্কেল করতে পারেন, লগ ম্যানেজ করতে পারেন, এবং স্বয়ংক্রিয়ভাবে রিস্টার্ট করার ব্যবস্থা করতে পারেন।
  • PM2 দিয়ে আপনি আপনার অ্যাপ্লিকেশনকে মনিটর করতে পারবেন এবং এর পারফরম্যান্স ট্র্যাক করতে পারবেন।
  • PM2 এর ecosystem.config.js ফাইল ব্যবহারের মাধ্যমে একাধিক অ্যাপ্লিকেশন এবং কনফিগারেশন সেট করা সম্ভব।

PM2 একটি কার্যকরী এবং নির্ভরযোগ্য টুল যা Node.js অ্যাপ্লিকেশনের প্রোডাকশন ব্যবস্থাপনা এবং স্কেলিংয়ের জন্য ব্যবহৃত হয়।

Content added By

Clustering এবং Load Balancing

200

Clustering এবং Load Balancing হল ওয়েব অ্যাপ্লিকেশন এবং সার্ভার পারফরম্যান্স উন্নত করার জন্য ব্যবহৃত দুটি গুরুত্বপূর্ণ প্রযুক্তি। এগুলি বিশেষভাবে ব্যবহৃত হয় যখন অ্যাপ্লিকেশনগুলির স্কেল বাড়াতে এবং তাদের কর্মক্ষমতা নিশ্চিত করতে হয়। ক্লাস্টারিং এবং লোড ব্যালান্সিং একসাথে কাজ করে যাতে সিস্টেমের অপ্রত্যাশিত ট্রাফিক বা উচ্চ লোডের কারণে পারফরম্যান্স কমে না যায়।


১. Clustering

Clustering হল একটি পদ্ধতি যেখানে একাধিক সার্ভার বা প্রসেস একসাথে কাজ করে এবং একটি সার্ভারের মাধ্যমে ওয়েব অ্যাপ্লিকেশন স্কেল করা হয়। এটি মূলত একাধিক প্রসেস (বা নোড) একসাথে চলতে সহায়তা করে যাতে অ্যাপ্লিকেশন আরও বেশি ট্রাফিক সহ্য করতে পারে এবং তার পারফরম্যান্স বৃদ্ধি পায়। Node.js এ, ক্লাস্টারিং সাধারণত একাধিক কোর প্রসেসরে কাজ করার জন্য ব্যবহৃত হয়।

Clustering in Node.js

Node.js এর cluster module ব্যবহার করে একাধিক কোরে অ্যাপ্লিকেশন চালানো যায়। Node.js সাধারণত একক থ্রেডে চলে, কিন্তু clustering ব্যবহার করে একাধিক থ্রেড চালানো যায়, যা CPU কোরের সর্বোচ্চ ব্যবহার নিশ্চিত করে।

Cluster Setup Example:

  1. প্রথমে cluster মডিউল এবং os মডিউল ব্যবহার করতে হবে যাতে সিস্টেমের কোর সংখ্যা জানা যায় এবং তার সাথে একাধিক প্রসেস চালানো যায়।
  2. Node.js Clustering Example:
const cluster = require('cluster');
const http = require('http');
const os = require('os');

const numCPUs = os.cpus().length;  // সিস্টেমে কয়টি CPU কোর আছে তা পাওয়া

if (cluster.isMaster) {
  // মাস্টার প্রসেস CPU কোরের জন্য worker প্রক্রিয়া তৈরি করবে
  console.log(`Master process is running on PID: ${process.pid}`);

  // CPU কোরের জন্য worker তৈরি করা
  for (let i = 0; i < numCPUs; i++) {
    cluster.fork();  // worker প্রসেস তৈরি
  }

  // Worker প্রসেস যখনই মারা যাবে তখন তাকে পুনরায় তৈরি করা হবে
  cluster.on('exit', (worker, code, signal) => {
    console.log(`Worker ${worker.process.pid} died`);
    cluster.fork();
  });
} else {
  // Worker প্রসেস HTTP সার্ভার চালাবে
  http.createServer((req, res) => {
    res.writeHead(200);
    res.end('Hello World');
  }).listen(8000);

  console.log(`Worker process is running on PID: ${process.pid}`);
}

এখানে:

  • Master Process: এটি মূল প্রক্রিয়া যা সমস্ত worker প্রসেস পরিচালনা করে।
  • Worker Processes: এগুলি নির্দিষ্ট কোরে অ্যাপ্লিকেশন চালায় এবং ক্লায়েন্ট রিকোয়েস্ট প্রসেস করে।

এভাবে clustering ব্যবহার করে আপনি Node.js অ্যাপ্লিকেশনটির পারফরম্যান্স বৃদ্ধি করতে পারেন এবং একাধিক কোরে কাজ করার সুবিধা পান।


২. Load Balancing

Load Balancing হল একটি প্রক্রিয়া যা ইনকামিং ট্রাফিক বা রিকোয়েস্ট গুলোকে একাধিক সার্ভারে ভাগ করে দেয়, যাতে কোনও একটি সার্ভারের উপর অতিরিক্ত লোড না পড়ে এবং সমস্ত সার্ভার সমানভাবে লোড শেয়ার করে কাজ করে। এটি সার্ভারের স্কেলিং এবং পারফরম্যান্স উন্নত করতে সাহায্য করে। লোড ব্যালান্সার সাধারণত ইনকামিং রিকোয়েস্টগুলোকে বিভিন্ন সার্ভারে বিতরণ করে।

Load Balancer Types:

  1. Hardware Load Balancer: একটি ফিজিক্যাল ডিভাইস যা নেটওয়ার্ক ট্রাফিক ব্যালেন্স করে।
  2. Software Load Balancer: একটি সফটওয়্যার সলিউশন যা সার্ভারের মধ্যে ট্রাফিক ব্যালেন্স করে। (যেমন Nginx, HAProxy)

Load Balancer Example with Nginx:

Nginx একটি জনপ্রিয় সফটওয়্যার লোড ব্যালান্সার যা ইনকামিং HTTP রিকোয়েস্টগুলিকে একাধিক সার্ভারে ভারসাম্যপূর্ণভাবে বিতরণ করতে ব্যবহৃত হয়।

  1. Nginx Configuration Example:

Nginx এর কনফিগারেশন ফাইলে একাধিক সার্ভার ব্লক তৈরি করা যায় যা রিকোয়েস্ট গুলো ভারসাম্যপূর্ণভাবে সার্ভারে পাঠায়।

http {
  upstream app_servers {
    server 127.0.0.1:8000;
    server 127.0.0.1:8001;
    server 127.0.0.1:8002;
  }

  server {
    listen 80;

    location / {
      proxy_pass http://app_servers;  # অ্যাপ সার্ভারগুলির দিকে রিকোয়েস্ট পাঠানো
    }
  }
}

এখানে:

  • Upstream: এখানে ৩টি সার্ভার রয়েছে (127.0.0.1:8000, 8001, 8002) যা লোড ব্যালান্সারের মাধ্যমে রিকোয়েস্ট গ্রহণ করবে।
  • Proxy Pass: ইনকামিং HTTP রিকোয়েস্ট গুলি ভারসাম্যপূর্ণভাবে এই সার্ভার গুলিতে বিতরণ করা হয়।

Load Balancing Algorithms:

  1. Round Robin: রিকোয়েস্ট গুলি সার্ভারগুলিতে সমানভাবে বিতরণ করা হয়।
  2. Least Connections: যেই সার্ভারের কম সংযোগ আছে, সেই সার্ভারে রিকোয়েস্ট পাঠানো হয়।
  3. IP Hash: ক্লায়েন্টের IP অ্যাড্রেসের ভিত্তিতে রিকোয়েস্ট একটি নির্দিষ্ট সার্ভারে পাঠানো হয়।

৩. Clustering and Load Balancing Together

Clustering এবং Load Balancing একত্রে ব্যবহৃত হয় যখন আপনার অ্যাপ্লিকেশনটি উচ্চ ট্রাফিক এবং স্কেলেবিলিটি প্রয়োজন। Clustering সার্ভারের অভ্যন্তরীণ পারফরম্যান্স উন্নত করে (একাধিক CPU কোরে কাজ করার জন্য), এবং Load Balancing সার্ভারের বাইরের লোড ভারসাম্যপূর্ণভাবে বিতরণ করে।

উদাহরণ: Clustering with Load Balancing

  1. Clustered Node.js Application: Node.js অ্যাপ্লিকেশন ক্লাস্টারিং ব্যবহার করে একাধিক worker প্রসেসে রান করতে পারে।
  2. Nginx as Load Balancer: Nginx লোড ব্যালান্সার হিসেবে ব্যবহৃত হয়ে সমস্ত ইনকামিং রিকোয়েস্ট ক্লাস্টারড সার্ভারে ভাগ করে দেয়।

এভাবে, clustering এবং load balancing একসাথে একটি অ্যাপ্লিকেশনকে উচ্চ পরিমাণ ট্রাফিক সামলানোর জন্য কার্যকরীভাবে প্রস্তুত করে।


সারাংশ

  • Clustering হল একাধিক সার্ভার বা প্রসেস একসাথে কাজ করার প্রক্রিয়া, যা অ্যাপ্লিকেশনের পারফরম্যান্স বৃদ্ধি করে এবং একাধিক CPU কোরে অ্যাপ্লিকেশন চালানোর সুবিধা দেয়।
  • Load Balancing হল ইনকামিং ট্রাফিক বা রিকোয়েস্ট গুলোকে একাধিক সার্ভারে বিতরণ করার প্রক্রিয়া, যা সার্ভারের উপর অতিরিক্ত লোড কমায় এবং সিস্টেমের পারফরম্যান্স উন্নত করে।
  • Clustering এবং Load Balancing একসাথে ব্যবহৃত হয় যখন অ্যাপ্লিকেশনটি উচ্চ স্কেল এবং ট্রাফিক সামলানোর জন্য প্রস্তুত করতে হয়।
Content added By

Docker এবং Kubernetes এর মাধ্যমে Scalability

187

Scalability হল একটি অ্যাপ্লিকেশন বা সিস্টেমের ক্ষমতা, যাতে সে অতিরিক্ত লোড বা ডিমান্ডের সময় আরও সম্পদ ব্যবহার করে কার্যকরীভাবে কাজ করতে পারে। Docker এবং Kubernetes হল দুটি অত্যন্ত গুরুত্বপূর্ণ টুল যা আপনার অ্যাপ্লিকেশন স্কেলিং এবং ম্যানেজমেন্টে সহায়তা করতে পারে।

এখানে, আমরা Docker এবং Kubernetes এর মাধ্যমে স্কেলেবিলিটি কিভাবে অর্জন করা যায় তা আলোচনা করব।


১. Docker: Containers এবং Scalability

Docker হল একটি কন্টেইনারাইজেশন টুল যা অ্যাপ্লিকেশন এবং তার নির্ভরতা একত্রে একটি প্যাকেজে (কন্টেইনার) লুকিয়ে রেখে বিভিন্ন পরিবেশে রান করা সহজ করে। Containers মূলত একটি lightweight, portable, এবং isolated execution environment যা ডেভেলপারদের এবং সিস্টেম অ্যাডমিনদের অ্যাপ্লিকেশন দ্রুত এবং কার্যকরীভাবে স্কেল করতে সাহায্য করে।

Docker Containers এবং Scalability

  • Isolation: Docker কন্টেইনারগুলি আপনার অ্যাপ্লিকেশন এবং তার নির্ভরতাগুলিকে একাধিক কন্টেইনারে আলাদা করে রাখে, যার ফলে একাধিক অ্যাপ্লিকেশন একে অপরকে প্রভাবিত না করে চালানো যায়।
  • Lightweight: কন্টেইনারগুলি ভার্চুয়াল মেশিনের তুলনায় অনেক লাইটওয়েট, ফলে এটি দ্রুত চালু হয় এবং দ্রুত স্কেল করা যায়।
  • Replicas: Docker containers ব্যবহার করে আপনি একাধিক কন্টেইনার ইনস্ট্যান্স তৈরি করতে পারেন, যেগুলি লোডের উপর ভিত্তি করে স্কেল করা যায়।

Docker Scaling

  1. Horizontal Scaling (Scaling Out): একাধিক কন্টেইনারের মাধ্যমে অ্যাপ্লিকেশন স্কেল করা। উদাহরণস্বরূপ, যদি আপনার ওয়েব সার্ভারে আরও ট্রাফিক আসে, তবে আরও কন্টেইনার তৈরি করা হবে।

    docker service scale web=5  # Scaling the 'web' service to 5 replicas
  2. Vertical Scaling (Scaling Up): কন্টেইনারের রিসোর্স (CPU, RAM) বৃদ্ধি করা। এটি কন্টেইনারের অভ্যন্তরে সংরক্ষিত অ্যাপ্লিকেশনের স্কেলিং।
  3. Load Balancing: Docker কন্টেইনারগুলি সাধারণত লোড ব্যালান্সারের মাধ্যমে স্কেল করা হয়, যাতে সঠিকভাবে রিকোয়েস্টগুলিকে কন্টেইনারগুলির মধ্যে বিতরণ করা যায়।

২. Kubernetes: Orchestration এবং Scalability

Kubernetes হল একটি ওপেন সোর্স প্ল্যাটফর্ম যা কন্টেইনার অর্কেস্ট্রেশন, ব্যবস্থাপনা, এবং স্কেলিংয়ের জন্য ব্যবহৃত হয়। Kubernetes ব্যবহার করে আপনি কন্টেইনারের বিভিন্ন ইনস্ট্যান্স (পড) পরিচালনা, স্কেল এবং অটোমেটিক্যালি রিসোর্স ম্যানেজ করতে পারেন।

Kubernetes এবং Scalability

  1. Pods: Kubernetes এ একটি পড হল এক বা একাধিক কন্টেইনারের গ্রুপ যা একই নেটওয়ার্ক স্পেস শেয়ার করে। Kubernetes পডগুলিকে সহজে স্কেল করে এবং পরিবেশ অনুযায়ী ভারসাম্য বজায় রাখে।
  2. ReplicaSets: ReplicaSets ব্যবহার করে আপনি একাধিক পডের কপি তৈরি করতে পারেন, যা রিকোয়েস্টের উপর ভিত্তি করে অ্যাপ্লিকেশন স্কেল করতে সাহায্য করে।
  3. Horizontal Pod Autoscaling: Kubernetes আপনাকে পডগুলির সংখ্যা স্বয়ংক্রিয়ভাবে বাড়ানোর বা কমানোর সুবিধা দেয়, যা CPU বা মেমরি ব্যবহারের উপর ভিত্তি করে স্কেল করতে সাহায্য করে।

Kubernetes Horizontal Pod Autoscaling

Kubernetes এর Horizontal Pod Autoscaler (HPA) ব্যবহার করে আপনি অ্যাপ্লিকেশনকে স্কেল করতে পারেন যখন নির্দিষ্ট শর্ত (যেমন CPU বা মেমরি ব্যবহার) পূর্ণ হয়। এটি অটোমেটিক্যালি পডের সংখ্যা বাড়িয়ে দেয়।

  1. Horizontal Pod Autoscaler ইনস্টল করা:
    প্রথমে আপনার ক্লাস্টারে HPA চালু করতে হবে।
  2. HPA কনফিগারেশন:
apiVersion: apps/v1
kind: Deployment
metadata:
  name: web-app
spec:
  replicas: 2  # Initial replica count
  template:
    spec:
      containers:
      - name: web-app
        image: my-web-app:latest
        resources:
          requests:
            cpu: 100m
            memory: 128Mi
          limits:
            cpu: 500m
            memory: 1Gi
---
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
  name: web-app-hpa
spec:
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: web-app
  minReplicas: 2
  maxReplicas: 10
  metrics:
  - type: Resource
    resource:
      name: cpu
      target:
        type: Utilization
        averageUtilization: 50

এখানে, HorizontalPodAutoscaler একটি নির্দিষ্ট CPU ব্যবহার (50%) এর উপর ভিত্তি করে পডের সংখ্যা বাড়ানোর নির্দেশ দেয়।

  1. Autoscaler মোনিটরিং:
kubectl get hpa  # Horizontal Pod Autoscaler এর স্ট্যাটাস দেখুন

৩. Docker এবং Kubernetes এর মধ্যে Scalability

বৈশিষ্ট্যDockerKubernetes
Scale TypeHorizontal Scaling (Scaling Out)Horizontal & Vertical Scaling (Scaling Out and Up)
OrchestrationNo built-in orchestration, but Docker Swarm can be used for basic orchestrationFully managed orchestration with built-in features like auto-scaling, load balancing, and service discovery
Scaling MethodManually scaling containers or using Docker ComposeAuto-scaling with Horizontal Pod Autoscaler and manual scaling with ReplicaSets
ComplexitySimpler, easier for smaller projectsMore complex, suitable for large-scale, distributed systems
Automated ScalingNot automated by defaultAutomated scaling with Horizontal Pod Autoscaler
Load BalancingLoad balancing through external proxies or Docker SwarmBuilt-in load balancing for services and pods
Stateful vs Stateless ScalingPrimarily stateless (with volume management)Can manage both stateful and stateless applications (StatefulSets, Persistent Volumes)

৪. Docker এবং Kubernetes এর মাধ্যমে Scalability এর সুবিধা

  1. Efficiency: Docker কন্টেইনারগুলি খুব লাইটওয়েট, তাই এটি স্কেল করা সহজ এবং দ্রুত। Kubernetes কন্টেইনারের সংখ্যা অটোমেটিকভাবে বৃদ্ধি বা হ্রাস করে, যেটি অনেক বেশি কার্যকরী।
  2. Automatic Scaling: Kubernetes এর Horizontal Pod Autoscaler বা HPA ফিচারটি সিস্টেমের উপর অটোমেটিক্যালি চাপ কমাতে এবং বৃদ্ধি করতে সহায়ক।
  3. High Availability: Kubernetes বিভিন্ন পডের মধ্যে লোড ব্যালান্সিং এবং রিপ্লিকেশন ব্যবস্থাপনা করে, ফলে আপনার অ্যাপ্লিকেশন উচ্চ উপলভ্যতা (high availability) নিশ্চিত করে।
  4. Seamless Deployment: Kubernetes কন্টেইনারদের স্বয়ংক্রিয়ভাবে পরিচালনা ও স্কেল করতে পারে, ফলে নতুন ভার্সন ডিপ্লয়মেন্ট বা স্কেলিং আরও সহজ হয়।
  5. Cost Efficiency: Kubernetes আপনাকে প্রয়োজনীয় রিসোর্স ব্যবহার করে কাজ করতে সাহায্য করে, যার ফলে ক্লাউড বা ইনফ্রাস্ট্রাকচারে খরচ কমানো সম্ভব।

সারাংশ

  • Docker আপনাকে কন্টেইনার ব্যবস্থাপনা, স্কেলিং এবং ইসোলেশন সুবিধা প্রদান করে, যেখানে আপনি একাধিক কন্টেইনার ব্যবহার করে অ্যাপ্লিকেশন স্কেল করতে পারেন।
  • Kubernetes হল একটি উন্নত অর্কেস্ট্রেশন সিস্টেম যা কন্টেইনারের সংখ্যা অটোমেটিক্যালি বৃদ্ধি বা হ্রাস করতে সক্ষম, এবং এটি অ্যাপ্লিকেশন স্কেলিং, লোড ব্যালান্সিং এবং স্টেটফুল অ্যাপ্লিকেশন ম্যানেজমেন্টে সাহায্য করে।
  • Docker সাধারণত ছোট স্কেল অ্যাপ্লিকেশনগুলোতে ব্যবহার করা হয়, যেখানে Kubernetes বৃহত্তর স্কেল এবং ম্যানেজমেন্টের জন্য আদর্শ।
  • Horizontal Scaling এবং Vertical Scaling উভয়ের সুবিধাই Kubernetes প্রদান করে, এবং এটি কোডের পারফরম্যান্স ও রিসোর্স ব্যবস্থাপনা উন্নত করতে সাহায্য করে।
Content added By
Promotion
NEW SATT AI এখন আপনাকে সাহায্য করতে পারে।

Are you sure to start over?

Loading...